ताजा खबर
Fact Check News in hindi : क्या अयोध्या 'राम पथ' के गड्ढे में गिरी महिला? जानें वायरल वीडियो की क्या...   ||    आज ही के दिन दादा भाई नौरोजी को ब्रिटेन की संसद के लिए चुना गया था, जानें 06 जुलाई का इतिहास   ||    सावन शुरू होने से पहले जान लें ये बातें, इन नियमों के​ बिना अधूरी रहेगी शिव जी की आराधना   ||    पाकिस्तान के बच्चों के अस्पताल पर बीमार बच्चे की जगह मृत बच्ची रखने का आरोप   ||    महिलाओं की रसोई से फिर गायब होगा टमाटर, जिससे चेहरा गुस्से से हुआ ‘लाल’!, जानें कहां कितने में बिक र...   ||    Breaking News: अरविंद केजरीवाल अभी जेल में ही रहेंगे, दिल्ली हाईकोर्ट से नहीं मिली राहत   ||    ब्रिटेन की लेबर पार्टी ऐतिहासिक चुनाव जीत कर आई सत्ता में   ||    ऋषि सुनक का राजनीतिक भविष्य अधर में लटकने के कारण ब्रिटेन के मतदान के लिए जा रहे हैं मतदाता   ||    Shila Mata Amer Jaipur : आमेर महल का वो मंदिर जहां आज भी होते हैं माता के दिव्य दर्शन, वीडियो जानें ...   ||    फलस्तीन समर्थक कार्यकर्ताओं ने ऑस्ट्रेलियाई सरकार पर लगाया युद्ध अपराधों में मिलीभगत का आरोप   ||   

अभिनेत्री स्कारलेट जोहानसन चैटजीपीटी 4o चैटबॉट से हुयी गुस्सा, आप भी जानें वजह

Photo Source :

Posted On:Tuesday, May 21, 2024

मुंबई, 21 मई, (न्यूज़ हेल्पलाइन)   सोमवार (स्थानीय समय) को अभिनेत्री स्कारलेट जोहानसन ने कहा कि उन्होंने चैटजीपीटी 4o चैटबॉट के लिए अपनी आवाज़ देने के ओपन एआई के अनुरोध को अस्वीकार कर दिया, और कहा कि वह "हैरान" और "गुस्सा" हैं कि आर्टिफिशियल इंटेलिजेंस कंपनी ने एक ऐसी आवाज़ का इस्तेमाल किया जो उनकी आवाज़ से "बहुत मिलती-जुलती" थी।

जोहानसन ने एक विस्तृत बयान में कहा कि उनके वकीलों ने कंपनी से GPT-4o चैटबॉट में नई आवाज़ों में से एक स्काई की आवाज़ हटाने के लिए कहा।

"पिछले सितंबर में, मुझे सैम ऑल्टमैन से एक प्रस्ताव मिला, जो मुझे वर्तमान चैटजीपीटी 4.0 सिस्टम की आवाज़ देने के लिए नियुक्त करना चाहते थे। उन्होंने मुझसे कहा कि उन्हें लगा कि सिस्टम की आवाज़ देकर मैं टेक कंपनियों और क्रिएटिव के बीच की खाई को पाट सकती हूँ और उपभोक्ताओं को मनुष्यों और एआई से संबंधित भूकंपीय बदलाव के साथ सहज महसूस करने में मदद कर सकती हूँ। उन्होंने कहा कि उन्हें लगा कि मेरी आवाज़ लोगों को सुकून देगी," अभिनेत्री द्वारा एनपीआर को दिए गए बयान में कहा गया है।

उन्होंने स्पष्ट किया, "काफ़ी विचार-विमर्श के बाद और व्यक्तिगत कारणों से, मैंने प्रस्ताव को अस्वीकार कर दिया"।

"नौ महीने बाद, मेरे दोस्तों, परिवार और आम जनता ने देखा कि 'स्काई' नामक नवीनतम सिस्टम की आवाज़ कितनी हद तक मेरी तरह थी"।

उन्होंने बयान में आगे लिखा, "जब मैंने रिलीज़ किया गया डेमो सुना, तो मैं हैरान, क्रोधित और अविश्वास में थी कि मिस्टर ऑल्टमैन ऐसी आवाज़ का पीछा करेंगे जो मेरी आवाज़ से इतनी मिलती-जुलती है कि मेरे सबसे करीबी दोस्त और समाचार आउटलेट अंतर नहीं बता सकते"।

जोहानसन ने आगे कहा कि उन्हें "कानूनी सलाहकार नियुक्त करने के लिए मजबूर होना पड़ा, जिन्होंने मिस्टर ऑल्टमैन और ओपनअल को दो पत्र लिखे, जिसमें उनसे स्काई आवाज़ बनाने की सटीक प्रक्रिया के बारे में विस्तार से पूछा गया और परिणामस्वरूप, ओपनअल ने "अनिच्छा से 'स्काई' आवाज़ को हटाने के लिए सहमति व्यक्त की", उन्होंने कहा।

अभिनेता, जिन्होंने कहा कि "ऐसे प्रश्न हैं जो पूर्ण स्पष्टता के हकदार हैं", ने कहा, "मैं पारदर्शिता के रूप में समाधान और व्यक्तिगत अधिकारों की रक्षा सुनिश्चित करने में मदद करने के लिए उचित कानून पारित होने की आशा करता हूं।"

इस बीच, कंपनी ने कहा कि वे अपनी चैटजीपीटी आवाज़ों में से एक के इस्तेमाल को रोकने की योजना बना रहे हैं। सोशल मीडिया पोस्ट में, ओपनएआई ने कहा कि वह स्काई को "रोकने" के लिए काम कर रहा है।

"हमने चैटजीपीटी, खासकर स्काई में आवाज़ों को चुनने के तरीके के बारे में सवाल सुने हैं। हम उन्हें संबोधित करते समय स्काई के इस्तेमाल को रोकने के लिए काम कर रहे हैं," कंपनी ने एक्स पर लिखा।

ओपनएआई ने कुछ दिन पहले अपना नवीनतम जीपीटी-4o भाषा मॉडल जारी किया, जो वास्तविक समय में चैट कर सकता है, जो अनुरोध के अनुसार अपनी आवाज़ में भावना जोड़ता है।


उदयपुर और देश, दुनियाँ की ताजा ख़बरे हमारे Facebook पर पढ़ने के लिए यहां क्लिक करें,
और Telegram चैनल पर पढ़ने के लिए यहां क्लिक करें



You may also like !

मेरा गाँव मेरा देश

अगर आप एक जागृत नागरिक है और अपने आसपास की घटनाओं या अपने क्षेत्र की समस्याओं को हमारे साथ साझा कर अपने गाँव, शहर और देश को और बेहतर बनाना चाहते हैं तो जुड़िए हमसे अपनी रिपोर्ट के जरिए. Udaipurvocalsteam@gmail.com

Follow us on

Copyright © 2021  |  All Rights Reserved.

Powered By Newsify Network Pvt. Ltd.